深度学习模型在众多图像识别,分类和重建任务中表现出令人难以置信的性能。虽然由于其预测能力而非常吸引人和有价值,但一个共同的威胁仍然挑战。一个专门训练的攻击者可以引入恶意输入扰动来欺骗网络,从而导致可能有害的错误预测。此外,当对手完全访问目标模型(白盒)时,这些攻击可以成功,即使这种访问受限(黑盒设置)。模型的集合可以防止这种攻击,但在其成员(攻击转移性)中的共享漏洞下可能是脆弱的。为此,这项工作提出了一种新的多样性促进深度集成的学习方法。该想法是促进巩固地图多样性(SMD)在集合成员上,以防止攻击者通过在我们的学习目标中引入额外的术语来实现所有集合成员。在培训期间,这有助于我们最大限度地减少模型炼塞之间的对齐,以减少共享成员漏洞,从而增加对对手的合并稳健性。我们经验展示了与中型和高强度白盒攻击相比,集合成员与改进性能之间的可转换性降低。此外,我们证明我们的方法与现有方法相结合,优于白色盒子和黑匣子攻击下的防御最先进的集合算法。
translated by 谷歌翻译
已显示自我监督学习(SSL)学习有用和信息保存的表示。神经网络(NNS)被广泛应用,但它们的重量空间仍然不完全理解。因此,我们建议使用SSL来学习NNS群体重量的神经表示。为此,我们介绍域特定的数据增强和适应的关注架构。我们的实证评估表明,该领域的自我监督的代表学习能够恢复不同的NN模型特征。此外,我们表明所提出的学习表示始终是预测超参数,测试准确性和泛化差距以及转移到分发外设置的工作。
translated by 谷歌翻译